精选分类

文章列表

20k18 分钟

说明:(既然有了概率论,那么也顺便把数分III梳理一下~)考虑了一下,还是以题目汇编的形式进行总结复习,通过解题梳理知识点。(题目来源:课后习题、答案书题目、期中考试题目) ~~另注:由于期末考试重点考后三章(二十二十二章),所以前四章题目会相对缩减。~ sry,时间不够了,后面几章的题目量可能还会少些…… 多元函数极限与连续: 请写出下面这个平面点集的聚点和界点: {(x,y)∣y=sin⁡1x,x>0}\{(x,y)\mid y=\sin\frac{1}{x},x>0\} {(x,y)∣y=sinx1​,x>0} 聚点和界点均为
14k13 分钟

说明: 本题集题源为老师上课课件、练手题以及教材课后习题,仅供参考。实则为无法预测的命运之舞台doge 逻辑与推理相关题目: 下面描述的问题哪个不属于因果分析的内容? 如果商品价格涨价一倍,预测销售量(sales)的变化 如果广告投入增长一倍,预测销售量(sales)的变化 如果放弃吸烟,预测癌症(cancer)的概率 购买了一种商品的顾客是否会购买另外一种商品 ❌属于干预 ❌属于干预 ❌属于反事实 ✔️属于相关性分析(“关联”),未达到因果分析层次。(上面两个阶段才是) 应用归结法证明以下命题集是不可满足的。 α∨ββ→γ¬α∧¬γ.\begin{align}
9.6k9 分钟

一、多项选择题(5分/题x10题=50分) 下列关于线性表的说法中,正确的有: 顺序表适合随机访问 链表可以动态分配内存 单链表可以直接访问任意节点 顺序表在插入和删除时效率较低 ✔️ 顺序表(如数组)在内存中是连续存储的,故可以进行随机访问 ✔️ 链表的节点通常是在程序运行时根据需要动态创建的 ❌ 单链表不支持随机访问,必须从头指针开始,沿着指针链逐个向后遍历 ✔️ 在顺序表中插入或删除一个元素时,为了保持内存的连续性,通常需要移动大量元素,相比链表效率较低 下列操作中,可能导致栈溢出的有: 递归过深 栈内存不足 栈空时进行出栈操作 入栈时超
22k20 分钟

说明:以下题目主要来自许忠好《初等概率论》习题/课后作业题/期中考试题等,仅供参考。 其中部分题目难度较大,作为拓展 or 附加题。(源自某23级学长) 概率空间典型题目: 由于shokax的特性,必须这样设置 事件AAA与BBB相互独立的充要条件为P(A∣B)=P(A)P(A\mid B)=P(A)P(A∣B)=P(A) 必要性不成立:若事件AAA与BBB相互独立,则P(B)P(B)P(B)可能为000,此时P(A∣B)P(A\mid B)P(A∣B)无意义。 若随机事件A,B,CA,B,CA,B,C两两独立,则A∪BA\
12k11 分钟

目前智能体主要分为两类: 角色扮演智能体(Role-playing Agents):使用系统prompt设定智能体角色,让智能体模仿这一角色与用户进行交互; 强化学习智能体(RL Agent):使用强化学习的方式(下面会详细描述)与环境交互,并通过环境反馈更新策略。 多智能体强化学习(MARL): 如果多智能体没有与环境交互,只是调用多个大模型,那么其本质仍为角色扮演。但这种形式再多次交互后智能体会逐渐忘记其初始设定; 现在的智能体除了与环境交互之外,还会附带其他模块,如下图: 记忆:上下文、长短时记忆、规则等 工具:将指令转化为具体操作(可集成) 规划:基于记忆与工具
6.7k6 分钟

# 多模态大模型的基础——视觉编码器(Vision Transformer, ViT) 回顾1:卷积神经网络CNN 回顾2:Transformer架构 在Attention机制出现前,计算机视觉领域主要使用CNN进行图像处理。但是CNN存在以下缺点: 受到归纳偏置的限制:CNN假设图像数据具有局部性和平移不变性,因而其更关注相邻像素间的关系(局部特征),而在处理图像整体特征时存在局限性。 扩展与迁移能力弱:CNN通过多层卷积和池化操作,从低级特征(如边缘)逐步抽象到高级特征(如对象部件、整体物体),而如果要对模型扩展,堆叠网络层会使得优化稳定性降低,因而在处理大规模数据时会受限。 前面
46k41 分钟

快要期末了,笔者发现好多题目不够熟练,故紧急把一些知识点整理成cheatsheet,也相当于复习了。 # 概率空间 样本点、样本空间、随机事件、事件域、样本空间分割的概念(略,看书) 概率的四种确定方法+公理化定义(见下): 非负性:P(A)≥0P(A)\geq 0P(A)≥0; 正则性:P(Ω)=1P(\Omega)=1P(Ω)=1; 可列可加性:当A1,⋯ ,An,⋯A_1,\cdots,A_n,\cdotsA1​,⋯,An​,⋯互不相容,有 P(∑n=1∞An)=∑n=1∞P(An)P(\sum_{n=1}^\i
10k9 分钟

# 神经机器翻译(NMT)——语言模型的基石 传统的统计机器翻译(SMT)通过学习双语平行语料(源语言+目标语言对照)与单语语料,利用极大似然估计函数得到翻译模型(源语言与目标语言词汇对应概率)与语言模型(源语言内部词汇搭配概率)。由这两个模型组成的翻译引擎通过枚举所有翻译的可能并计算每种可能翻译正确的概率,最终确定翻译结果。 SMT的缺点: 需要加入大量人工规则,特征工程复杂,人工成本高 只能看有限上下文,难以捕捉长距离依赖 泛化能力弱,模型对新领域的语料适应性差 因而,在2013年,Nal Kalchbrenner 和 Phil Blunsom 提出了一种用于机器翻译的新型端到端编
31k28 分钟

老师还是听劝,终于把代码端了上来有没有用另说 笔者进行了一番品鉴,取其精华,汇总于此,以作参考(部分运行结果请参考所附链接,使用了在线python IDE) 另外,笔者认为,就目前阶段而言,不必掌握所有代码的细节,知道应该调用哪个库解决即可(去查官方文档!) # Ch.2 人工智能数据基础 # 数据相似性度量 以下算法用于比较预测值与真实值间的差异: 欧氏距离 手搓版(euclidean_distance): import math def euclidean_distance(p,q): if len(p) != len(q): raise ValueError(&
11k10 分钟

注:本节可参考国内《信息安全数学基础》《初等数论》《抽象代数》等相关内容(即如果学习过以上课程,下面内容可以跳过)。 # 模运算(Modular Arithmetic) 在计算机的一些领域(如密码学),我们通常希望处理一串范围较小的数字。这时,模运算就起到了巨大的作用,它能将数压缩到一个较小的范围{0,1,⋯ ,N−1}\{0,1,\cdots,N-1\}{0,1,⋯,N−1},从而简化大量运算。 在生活中,最常见的模运算例子就是时钟。时钟以12小时为一循环(如果以24小时制计算则为24小时一循环),因而我们能够轻松计算当前时刻若干小时后的时刻。 用数学语言描述的话,我们可以定义x(mod⁡m